Loading...
机构名称:
¥ 1.0

开发人员必须将他们的担忧告知管理层,但他们的抱怨可能会遭到冷漠对待,甚至威胁要更换他们 1 。这种情况属于社会困境,我们在本文中的目标是强调人工智能开发人员面临的社会困境对道德人工智能发展的阻碍。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际上实施这种行为会给个人带来不利影响,以至于他们不得不避免这样做,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正在成为当前最具影响力的技术之一,对开发的需求巨大 [ 1 , 2 ]。人工智能领域的进步推动了数据分析和模式识别的空前进展,进而推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。所使用的数据在大多数情况下都是历史数据,因此可以反映歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术即使不具有歧视性,其发展也是不道德的。基于面部识别、智能警务和安全城市系统等大规模监控已被多个国家使用 [3],社交媒体使用的新闻推送模型产生了回音室效应并助长了极端主义 [4],自主武器系统正在生产中 [5]。人工智能伦理领域以及机器学习公平性等子领域发展迅速,例如 [6-9]。然而,目前尚不清楚人工智能开发在实施道德实践方面是否取得了很大进展,也不清楚开发人员是否被授权拒绝参与不道德的人工智能开发。《2021 年人工智能指数年度报告》[ 10 ] 等报告强调人工智能开发伦理缺乏协调。具体来说,该报告的九大亮点之一指出“人工智能伦理缺乏基准和共识”。大型公司(也被称为“大型科技公司”)是开发绝大多数人工智能系统的公司。这些公司对学术界和公众的压力作出了反应,发布了人工智能开发伦理的指导方针和原则。过去几年,这类文件的数量可谓激增 [ 11 – 13 ]。尽管研究人员和社会都认为人工智能开发伦理很重要 [ 14 ],但伦理准则和原则的泛滥遭到了伦理研究人员和人权从业者的批评,他们反对不精确使用伦理相关术语 [ 15 , 16 ]。批评者还指出,上述原则在大多数情况下不具约束力,而且由于其模糊和抽象的性质,在实施方面也没有具体规定。最后,它们没有赋予开发人员拒绝不道德的人工智能开发的权力。成熟的人工智能伦理的后期发展

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日PDF文件第1页

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日PDF文件第2页

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日PDF文件第3页

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日PDF文件第4页

arXiv:2107.12977v3 [cs.AI] 2021 年 11 月 17 日PDF文件第5页

相关文件推荐

2005 年
¥22.0